"Deepfake van Sobyanin": Hackers klonen regionale hoofden om bankklanten te misleiden

Cybercriminelen maken gebruik van technologieën op basis van kunstmatige intelligentie (AI). Ze begonnen massaal gebruik te maken van afbeeldingen van beroemde ambtenaren en zakenlieden om geld van de Russen te lokken. Hoe dit werkt, leest u in het NI-artikel.
Een nieuw type fraude verspreidt zich razendsnel online via deepfakes: afbeeldingen van beroemde mensen die tot leven worden gebracht met behulp van AI-technologie.
Er zijn al gevallen beschreven waarin Russen werden overgehaald om “geld over te maken naar een veilige rekening” of spaargeld te investeren in een “superwinstgevende onderneming” door middel van elektronische afbeeldingen met het uiterlijk en de stem van leiders van Russische regio’s, beroemde artiesten en succesvolle ondernemers.
“De afgelopen week is er op sociale media een nieuwe golf van nepvideo’s verschenen met leiders van Russische regio’s. Oplichters hebben nep-Telegramkanalen gecreëerd van de gouverneurs van de regio's Vologda, Smolensk, Samara en andere regio's, waar ze desinformatie verspreiden", meldde de UBK van het Ministerie van Binnenlandse Zaken van Rusland (cyberpolitie van het Ministerie van Binnenlandse Zaken van de Russische Federatie).
Het Ministerie van Digitale Ontwikkeling maakte duidelijk dat de eerste deepfake met de burgemeester van Moskou, Sergej Sobjanin, anderhalf jaar geleden op internet verscheen.
De oprichter van het Institute of Financial and Investment Technologies, Alexey Primak, herinnert zich dat fraudeurs vroeger, om hun snode doelen te bereiken, “alleen” een sms-bericht of e-mail stuurden van een “naaste” persoon die in de problemen zat en geld nodig had. Hun technische mogelijkheden zijn inmiddels echter aanzienlijk toegenomen.
“Tegenwoordig maken oplichters audio, synthetiseren ze stemmen en creëren ze videoboodschappen”, waarschuwt de expert.
Het arsenaal aan AI-technologieën waarover fraudeurs kunnen beschikken, breidt zich snel uit. Foto: Afbeelding door Midjourney
Tegenwoordig is het digitaal ‘klonen’ van andermans afbeeldingen met behulp van AI-technologieën wijdverbreid. De cyberpolitie maakte duidelijk dat het verspreiden van informatie die vermoedelijk afkomstig is van ambtenaren, verschillende doelen kan dienen, variërend van phishing tot psychologische beïnvloeding met als doel de situatie te destabiliseren.
Het hoofd van de afdeling Personologie en Gedragsanalyse aan de Academie voor Sociale Technologieën, psychiater, psycholoog en expert in leugendetectie, Alexey Filatov, vertelde aan NI dat het land eerder al massaal incidenten had geregistreerd waarbij nep-audioberichten werden verstuurd namens de directeuren van gemeentelijke ondernemingen, universiteiten, scholen, ziekenhuizen en andere organisaties.
“Audiovervalsingen worden vaker vertrouwd omdat ze aantrekkelijker zijn en minder makkelijk te verifiëren zijn op authenticiteit”, legt de expert uit.
Hij wees erop dat aanvallers eerst samples van iemands stem verzamelen (bijvoorbeeld van openbare toespraken, interviews, audio-opnames) en vervolgens met behulp van neurale netwerken nepzinnen synthetiseren die de klankkleur, intonatie en manier van spreken van de persoon imiteren.
“Met moderne modellen kun je binnen enkele minuten zulke samples maken en in combinatie met deepfake-videogeneratie kunnen oplichters zelfs videogesprekken imiteren. “Tegenwoordig zijn er minstens een dozijn open sites en gespecialiseerde programma’s op internet die het bijna iedereen met gemiddelde computervaardigheden mogelijk maken om dit te doen,” verduidelijkte Aleksej Filatov.
Volgens het hoofd van de analytische afdeling van het investeringsbedrijf "Rikom-Trust", Ph.D. N. Oleg Abelev , financiële marktdeelnemers kunnen bescherming tegen deepfakes installeren.
“Tegenwoordig is dit software die een betere identificatie van klanten mogelijk maakt, doordat zij aanvullende informatie verstrekken om een transactie te voltooien, multifactoridentificatie, waarbij het beveiligingssysteem niet alleen de code controleert, maar ook het apparaat zelf waarmee de aanvraag voor persoonlijke gegevens wordt gedaan, het IP-adres, de locatie, evenals antifraudesystemen die zijn getraind op typische handelingen.
En als er iets ongewoons gebeurt, wordt deze bewerking gecontroleerd aan de hand van de database met voorbeelden van frauduleuze activiteiten en als er een match is, wordt de bewerking automatisch geblokkeerd totdat de accounteigenaar de nodige bevestiging geeft", aldus de expert.
Hij is ervan overtuigd dat zodra er software verschijnt die deepfakes kan herkennen, we kunnen zeggen dat AI de belangen en fondsen van klanten van banken en andere financiële instellingen bewaakt.
Technologieën voor gebruikersbescherming lopen echter nog steeds achter op het tempo van de technische activiteiten van fraudeurs.
“Ontwikkelingsbedrijven testen al algoritmen voor het detecteren van vervalsingen door microtrillingen in de stem, afwijkingen in de spraaksynthese en artefacten in de visuele weergave te analyseren. Sommige banken en koeriersdiensten ontwikkelen authenticatiemechanismen die gebaseerd zijn op aanvullende factoren, waaronder een verzoek om willekeurige woorden uit te spreken, analyse van biometrische kenmerken en verificatie van metagegevens van audiobestanden. “Er is echter nog geen massale en betrouwbare oplossing”, waarschuwde expert Alexey Filatov .
Volgens het Ministerie van Binnenlandse Zaken heeft de administratie van de Telegram-messenger, als reactie op klachten van gebruikers over de verspreiding van ‘klonen’ van ambtenaren, verdachte kanalen met deepfakes al geïdentificeerd en gemarkeerd als onbetrouwbaar. Sommige zijn helemaal verwijderd. De oplichters die de portemonnees van Russen proberen te stelen, zitten echter niet stil: ze maken steeds meer nepbeelden die het uiterlijk en de stem van het origineel met minutieuze precisie nabootsen.
“Wij raden gebruikers aan alleen vertrouwde bronnen te vertrouwen. “Het zou geen slecht idee zijn om te controleren of het kanaal voorkomt in de lijst met persoonlijke pagina’s van gebruikers van sociale netwerken, waarvan de doelgroep meer dan tienduizend gebruikers bedraagt”, adviseerde de cyberpolitie.
Psycholoog Aleksej Filatov voegde toe dat het in elke situatie belangrijk is om waakzaam en koelbloedig te blijven.
“Als je plotseling een telefoontje krijgt van de ‘gouverneur’, een politieagent, een voicemailbericht van een manager of een ‘bankmedewerker’ met de vraag om dringend iets te doen, moet je op je hoede zijn: het is allemaal oplichterij”, is de expert ervan overtuigd.
Deskundigen adviseren om niet in paniek te raken als u met oplichters te maken krijgt. Foto: Afbeelding door Midjourney
Om te voorkomen dat u slachtoffer wordt van criminelen, adviseert de specialist om het zekere voor het onzekere te nemen.
“Gebruik extra verificatiekanalen: bel officiële contactpersonen terug, stel vragen waar de nep-accountant mogelijk geen antwoord op weet. “Vertrouw niet blindelings op videogesprekken, vooral niet als de beeldkwaliteit vreemd is en de gezichtsuitdrukkingen er kunstmatig uitzien”, adviseert Alexey Filatov .
Expert Alexey Primak adviseert om in elke situatie de controle te houden en niet toe te staan dat paniek uw verdedigingsmechanismen doorbreekt.
“Laten we het apart hebben over beleggingsfraude. Dankzij deepfakes verschijnen er video's van bekende personen op internet, bijvoorbeeld Pavel Durov , Oleg Tinkov* en andere bekende persoonlijkheden. En als plotseling een bekende persoon reclame maakt voor bijvoorbeeld een nieuwe crypto-handelsterminal, verliezen goedgelovige mensen hun waakzaamheid. Het doel hiervan is om investeerders te misleiden.
Onthoud: een reclame van een bekende persoon, vooral als het onderwerp van de advertentie op geen enkele manier met hem te maken heeft en ook niet zijn bedrijf is, is geen reden om te investeren. “Als het beleggingsresultaat er te mooi en verleidelijk uitziet en de winstgevendheid te mooi is om waar te zijn, is het meestal voor 100% oplichterij”, waarschuwt Alexey Primak.
De stem van de Russische actrice Alena Andronova, die werd ingesproken als voice-over voor een bankapplicatie, is gestolen door makers van pornosites. Foto: Kampioenschap
Opgemerkt moet worden dat de technologie voor het gebruik van deepfakes in het Westen al lang wijdverbreid is en volledig legaal is. Oorspronkelijk werd het onder meer ontwikkeld om de gezondheid en het leven van filmacteurs te beschermen bij het uitvoeren van complexe stunts. Het gebruik van deepfakes verspreidde zich echter zo snel dat digitale klonen de plaats van levende mensen begonnen in te nemen, wat leidde tot stakingen van acteurs.
Ook Rusland kende een aantal artistieke schandalen.
De actrice zei dat ze een rechtszaak heeft aangespannen tegen Tinkoff Bank om haar eer en waardigheid te beschermen. Ze beschuldigde de kredietinstelling ervan samples van haar stem te hebben gestolen, die tegen de wil van de actrice in van de audiodiensten van de bank naar voice-overs voor pornosite -advertenties waren ‘gemigreerd’.
Andronova eiste via de rechtbank 6 miljoen roebel van de bank. Ze maakte ook haar voornemen bekend om samen te werken met stemacteurs en de Unie van Russische Omroepers om wettelijke bescherming van stemmen te verkrijgen. Andronova stelde dat de stem van een burger op gelijke voet moet worden beschermd als zijn imago en dat buitenstaanders een stemopname niet mogen gebruiken om spraak te synthetiseren, tenzij dit duidelijk is aangegeven als een van de doeleinden van de opname.
*Toegevoegd aan het register van buitenlandse agenten door het Russische Ministerie van Justitie.
newizv.ru